Световни новини без цензура!
A.I. Пионерите призовават за защита срещу „катастрофални рискове“
Снимка: nytimes.com
New York Times | 2025-02-12 | 15:57:59

A.I. Пионерите призовават за защита срещу „катастрофални рискове“

Учените, които помогнаха на пионерския изкуствен интелект, предизвестяват, че страните би трябвало да основат световна система на контрол, с цел да ревизират евентуално сериозните опасности, подбудени от бързите -развиване на технология.

стартирането на chatgpt и низ от сходни услуги, които могат да основават текст и изображения на команда, демонстрират по какъв начин A.I. напредва по мощни способи. Състезанието за комерсиализиране на технологията бързо го донесе от периферията на науката до смарт телефони, коли и класни стаи, а държавните управления от Вашингтон до Пекин бяха принудени да измислят по какъв начин да го контролират и употребяват.

В изказване в понеделник група от авторитетни A.I. Учените показаха опасения, че технологията, която те помогнаха за построяването, може да аргументи съществени вреди. Те предизвестиха, че A.I. Технологията може в границите на няколко години да изпревари опциите на своите основатели и тази „ загуба на човешки надзор или злонамерена приложимост на тези A.I. Системите могат да доведат до пагубни резултати за цялото човечество. ”

в случай че A.I. Системите на всички места по света трябваше да развият тези качества през днешния ден, няма проект по какъв начин да ги възкресим, съобщи Джилиан Хадфийлд, юридически академик и професор по компютърни науки и държавно управление в университета Джон Хопкинс.

far.ai.

държавните управления би трябвало да знаят какво се случва в изследователските лаборатории и компании, работещи върху A.I. Системи в техните страни, съобщи групата в своето изказване. И те се нуждаят от метод да споделят за евентуални опасности, които не изискват компании или откриватели да споделят лична информация с съперници.

Групата предложи страните да основат A.I. Органите за сигурност да записват A.I. системи в границите на техните граници. След това тези управляващи ще работят дружно, с цел да се спогодят за набор от червени линии и предупредителни знаци, да вземем за пример в случай че A.I. Системата може да се копира или съзнателно да заблуди своите основатели. Всичко това ще бъде координирано от интернационален орган.

Джефри Хинтън, пионерски академик, който прекара десетилетие в Гугъл, взе участие отдалечено. И тримата са спечелили в премията Turing, еквивалент на Нобеловата премия за пресмятане.

Групата също включваше учени от няколко от водещите в Китай A.I. Изследователски институции, някои от които са финансирани от страната и поучават държавното управление. Няколко някогашни държавни чиновници се причислиха, в това число Фу Ин, който беше чиновник на китайското министерство на външните работи и посланик, и Мери Робинсън, някогашен президент на Ирландия. По-рано тази година групата се срещна в Пекин, където осведомиха висши китайски държавни чиновници за тяхната полемика.

Последното им събиране във Венеция се организира в постройка, благосъстоятелност на милиардера Филантроп Никола Берггруен. Президентът на мозъчния концерн на Института Берггруен, Зората Накагава, взе участие в срещата и подписа изказването, оповестено в понеделник.

срещите са рядко място за ангажиране сред китайци и китайци Западните учени във време, когато Съединени американски щати и Китай са заключени в напрегната конкуренция за софтуерен примат.

технология, която съперничи на водещия американски A.I. Системи.

Китайска комунистическа партия Конклав, който се организира на всеки пет години, приканва система да контролира A.I. сигурност. Миналата седмица, авторитетна група за механически стандарти в Китай разгласява A.I. Рамка за сигурност.

Миналия октомври президентът Байдън подписа изпълнителна заповед, която изисква фирмите да рапортуват на федералното държавно управление за рисковете, че техните A.I. Системите биха могли да слагат, като способността им да основават оръжия за всеобщо заличаване или капацитет да бъдат употребявани от терористи.

Президентът Байдън и водачът на Китай, XI Jinping, се съгласиха, когато се срещнат последно година, в която чиновници от двете страни би трябвало да водят диалози за A.I. сигурност. Първият се организира в Женева през май.

подписа декларация във Англия предишния ноември, като се съгласи да сътрудничи за оценка на рисковете от изкуствен интелект. Те се срещнаха още веднъж в Сеул през май. Но тези събирания не са спряли да се дефинират съответни цели на политиката.

съмнение сред Съединените щати и Китай прибавя към компликацията при реализиране на подравняване.

" И двете страни са извънредно подозрителни към желанията на другия ", споделя Мат Шийън, помощник в дара на Карнеги за интернационален мир, който не беше част от разговора. „ Те се тормозят, че в случай че изпомпват спирачките заради опасения за сигурността, това ще разреши на другия да усили мащаба напред “, сподели г -н Шийхан. „ Това съмнение просто ще бъде изпечено. Две геополитически суперсили.

В изявление доктор Бенгио, един от създателите на групата, цитира диалози сред американски и руски учени в разгара на студената война Това оказа помощ да се реализира съгласуваност за попречване на нуклеарната злополука. И в двата случая участващите учени почувстваха обвързване да оказват помощ за затварянето на кутията на Пандора, отворено от техните проучвания.

Технологията се трансформира толкоз бързо, че е мъчно за обособените компании и държавните управления на Решете по какъв начин да методите към него и съдействието е от решаващо значение, сподели Фу Хоню, шеф на A.I. Управлението в изследователския институт на Alibaba, AlireSearch, който не взе участие в разговора.

" Не е като да регулираш зряла технология ", сподели господин Фу. „ Никой не знае какво бъдещето на A.I. Изглежда. ”

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!